Vie privée : noyb dépose neuf plaintes contre X/Twitter

Vie privée : noyb dépose neuf plaintes contre X/Twitter

Données s'il-vous-plaît

4

Vie privée : noyb dépose neuf plaintes contre X/Twitter

Après onze plaintes contre Meta en juin, noyb en dépose neuf contre X/Twitter, toujours pour mésusage des données personnelles des internautes européens dans le cadre d’entraînement de modèles d’IA générative.

X et son propriétaire Elon Musk vont passer les mois à venir devant les tribunaux. La semaine passée, nous mentionnions une plainte déposée par l’entrepreneur multimilliardaire contre les anciens annonceurs du réseau social, et une action en justice intentée contre l’entreprise par la Data Protection Commission (DPC) irlandaise pour soupçons de mésusage des données personnelles des usagers européens de X.

À la suite de cette deuxième opération, l’association spécialiste des questions de vie privée noyb annonce ce 12 août déposer neuf plaintes contre le réseau social. Dans son viseur : l’usage fait des données des européens utilisateurs de la plateforme pour entraîner le modèle d’intelligence artificielle générative Grok, voulu par Musk.

L’association souligne que, contrairement à son concurrent Meta qui avait prévenu ses utilisateurs européens, X a commencé à utiliser les informations que lui avaient partagées les internautes de la région en mai pour entraîner le modèle Grok, sans prévenir quiconque. C’est par l’intermédiaire d’un tweet devenu viral, fin juillet, que bon nombre d’internautes ont appris que leurs informations avaient pu être utilisées par l’entreprise pour entraîner son modèle d’IA. 


Après Meta, c’est au tour de X

Début juin, l’association autrichienne avait déposé onze plaintes contre Facebook et Instagram à travers l’Union. Elle s’était ensuite réjouie d’observer Meta rapidement suspendre son utilisation des données personnelles de ses utilisateurs européens.

Face à X, noyb a reproduit la technique, déposant des plaintes en Autriche, en Belgique, en France, en Grèce, en Irlande, en Italie, en Espagne et en Pologne. L’association demande une « enquête complète », considérant que l’angle d’attaque pris par la DPC traduit une inquiétude sur la forme plus que sur le « fond du problème ».

Approfondir l’enquête de la CNIL irlandaise

L’affaire est néanmoins traitée de manière urgente, dans la mesure où X prévoit de lancer Grok courant août, et où l’entreprise a pour le moment rejeté les demandes de réaction formulées par le gendarme irlandais. La DPC a donc saisi la justice irlandaise pour obliger l’entreprise à suspendre le traitement des données personnelles de ses usagers européens.

S’appuyant sur les auditions publiques réalisées par l’autorité, noyb s’inquiète que l’autorité ne s’intéresse qu’à des problématiques « à la marge », en l’occurrence au déploiement de mesures de modération et le manque de coopération.

L’association demande à approfondir les travaux en cours. Elle considère que l’entreprise n’a pas de base légale, et notamment pas d’« intérêt légitime », à utiliser les données de ses utilisateurs européens pour entraîner son système d’IA. Elle estime donc que X a manqué à son obligation de demander le consentement de ses usagers, comme l'y oblige le RGPD.

L’ONG demande aussi des réponses sur la manière dont X peut réellement séparer des données issues de l’Union européenne d’autres issues d’autres régions du monde. Elle souhaite enfin faire la lumière sur ce qui a réellement été fait avec les données déjà « ingérées » par le système génératif sur lequel travaille le réseau social.

Commentaires (4)


C'est clair que le rotten birdsite viole sciemment (sur ordre de musk lui-même ?) le RGPD.
Saleté de matière première qui se rebiffe.
Entrainer une IA avec une majorité de données complotistes, racistes, homophobes, transphobes, misogynes, ... Je suis curieux de voir ce que peut donner une IA entrainée avec les tweets d'Elon.
Modifié le 13/08/2024 à 10h51

Historique des modifications :

Posté le 13/08/2024 à 10h50


Entrainer une IA avec une majorité de données complotistes, racistes, homophobes, transphobes, misogyne, ... Je suis curieux de voir ce que ça peut donner.

Posté le 13/08/2024 à 10h50


Entrainer une IA avec une majorité de données complotistes, racistes, homophobes, transphobes, misogyne, ... Je suis curieux de voir ce que peut donner une IA entrainée avec les tweets d'Elon.

Même s'il le résultat ne sera sans doute pas fameux, le procédé n'en reste pas moins discutable.
Sachant que les "données personnelles" utilisées ne sont sans doute pas que les "tweets/posts" des utilisateurs de la plateforme.
Fermer